李想:i8 反响不错,产品力没对手;库克暗示:苹果将推桌面机器人;中国日均消耗 30 万亿 Token,暴涨 300 倍
本场运动会涵盖 26 个赛项、487 场比赛,包括田径、足球、自由搏击、全体舞蹈等,已吸引 16 个国家 280 支队伍、500 余台机器人参赛。
本场运动会涵盖 26 个赛项、487 场比赛,包括田径、足球、自由搏击、全体舞蹈等,已吸引 16 个国家 280 支队伍、500 余台机器人参赛。
8 月 14 日晚,全球首个人形机器人运动会在北京国家速滑馆「冰丝带」正式启幕,带来了超模搭档走秀、赛博乐队表演等「机器人秀」。
国家发展改革委党组成员、国家数据局局长刘烈宏在会上表示,作为人工智能发展的三大核心要素之一,数据在推动“人工智能+”过程中发挥着关键作用,特别是高质量数据集的建设至关重要。
想象一下你正在刷视频,突然提示"登录已过期,请重新登录",需要退出当前页面重新输入密码。这样的体验非常糟糕!无感刷新就是为了解决这个问题:让用户在不知不觉中完成身份续期,保持长时间在线状态。
AI界近期迎来了一项由华人科研团队带来的突破性进展,他们探索了扩散语言模型在Token数量受限条件下的表现,发现其数据学习能力远超自回归模型,展现出了三倍的优势。这一发现无疑为语言模型的训练策略开辟了全新的视角。
在“DeepSeek创新热”过后,我们看到全球各大模型厂商在2Q25正以更快的节奏将更强能力的产品推向市场;用户侧,token的加速消耗也推动着算力需求持续提升。3Q25,随着备受关注的GPT-5问世,我们认为全球领先水平大模型有望进入密集发布期,进而撬动市场
在当前大语言模型(LLM)的持续发展中,面临的挑战之一是可用的高质量训练文本数据(tokens)即将枯竭,并成为限制模型性能持续提升的关键瓶颈。另外,新增的高质量数据来源少,获取成本高,去重后更加稀缺。因此,当模型规模继续扩大,所需数据量按 Scaling L
在当前大语言模型(LLM)的持续发展中,面临的挑战之一是可用的高质量训练文本数据(tokens)即将枯竭,并成为限制模型性能持续提升的关键瓶颈。另外,新增的高质量数据来源少,获取成本高,去重后更加稀缺。因此,当模型规模继续扩大,所需数据量按 Scaling L
昨日(7 月 30 日),ACL(国际计算语言学年会)公布了 2025 年的获奖论文。令人惊喜的是,这些论文里的中国作者比例超过 51%,排在第二的美国仅为 14%。
论文 deepseek t token deepseekv4 2025-08-06 15:13 3
在传统语音合成模型还停留在「一句话说得顺」时,模力方舟上线的新模型MOSS-TTSD-v0.5,已经实现了更进一步的能力:多角色自然对话语音的合成与克隆,在线体验链接:https://ai.gitee.com/serverless-api?model=MOSS
谷歌扔下重磅炸弹:AI编程工具Gemini CLI,开源!免费!权限拉满!百万token上下文、千次调用额度、VS Code+终端全打通,谷歌彻底掀桌子:开发者的终端,要定了!
不同于基于 Transformer 的自回归式语言模型,dLLM 基于掩码式扩散模型(masked diffusion model / MDM),此前我们已经报道过 LLaDA 和 Dream 等一些代表案例,最近首款实现商业化的 dLLM 聊天机器人 Mer
本文共同第一作者为张均瑜与董润沛,分别为伊利诺伊大学厄巴纳-香槟分校计算机科学研究生与博士生;该研究工作在伊利诺伊大学厄巴纳-香槟分校张欢教授与 Saurabh Gupta 教授,加州大学伯克利分校 Jitendra Malik 教授的指导下完成。
Token Pocket作为多个区块链平台的数字资产钱包,已经构建了一个强大的用户基础,与众多去中心化应用(D App)和服务紧密相连。随着区块链和加密货币市场的迅猛发展,Token Pocket未来的发展具有广阔的前景。以下是关于Token Pocket未来
pocket token tokenpocket pocke 2025-06-21 18:00 8
生成式AI正以前所未有的速度渗透进我们的日常生活,但鲜少有人关注其背后的环境代价。OpenAI CEO Sam Altman曾透露,ChatGPT单次查询平均消耗0.34瓦时能源,相当于烤箱运行1秒多的耗电量,但凭借AI公司偶尔披露的零星数据,研究者无法对模型
1) 受益于大厂加速AI与业务结合、Agent及多模态加速渗透,AI算力消耗开始从训练走向推理,并带来显著的算力增量。建议重视海外算力新技术以及增量变化,尤其是随着机柜式方案放量,重点关注液冷、PCB、铜连接等领域。
美国AI芯片创企Groq昨天宣布,其已正式成为Hugging Face Hub支持的推理服务提供商,推理服务已无缝集成至Hugging Face的JS和Python客户端SDK,开发者可便捷地将各类模型与优选服务提供商对接使用。
在人工智能技术快速演进的背景下,大型语言模型的架构设计始终围绕仅解码器(decoder-only)的Transformer结构展开。自第一个GPT模型发布以来,该架构已成为主流设计范式。尽管研究人员在效率优化方面进行了诸多改进,但核心架构结构保持相对稳定。
想象一下,如果你的手机能够在处理复杂任务时既快速又节能,那该多好?韩国科学技术院(KAIST)的研究团队刚刚在2025年3月的《机器学习研究汇刊》上发表了一项令人兴奋的研究成果,他们开发出了一种让人工智能模型变得更高效的全新方法。这项研究的第一作者是宋佑民(W
在 2016 年的一次演讲中,Yann LeCun 曾将强化学习比喻成蛋糕上的樱桃。他提到,「如果把智能比作一块蛋糕,那么无监督学习就是蛋糕的主体,监督学习就是蛋糕上的糖霜,而强化学习则是糖霜上的樱桃。我们已经知道如何制作糖霜和樱桃,但却不知道如何制作蛋糕本身